بر اساس یک پژوهش جدید، بحثهای آنلاین درباره مهرههای سیاه و سفید شطرنج موجب گیج شدن آن دسته از الگوریتمهای هوش مصنوعی میشوند که برای تشخیص نژادپرستی و سایر سخنان نفرتپراکنانه ساخته شدهاند.
متخصصان علوم کامپیوتر دانشگاه کارنگی ملون، در ماه ژوئن در پی مسدود شدن یک کانال محبوب شطرنج در یوتیوب بهدلیل محتوای «مضر و خطرناک»، تحقیقات در زمینه این ایراد فنی هوش مصنوعی را آغاز کردند.
آنتونیو رادیچ، شطرنجباز کروات، که با حساب کاربری آگادماتور (Agadmator) فعالیت میکند، صاحب محبوبترین کانال یوتیوب شطرنج جهان با بیش از یکمیلیون دنبالکننده است.
در روز ۲۸ ژوئن ۲۰۲۰، زمانیکه رادیچ در یوتیوب درحال اجرای یک برنامه شطرنج با حضور استاد بزرگ هیکارو ناکامورا بود، این پلتفرم متعلق به گوگل کانالش را بدون ذکر هیچ دلیلی، مسدود کرد. کانال رادیچ پس از ۲۴ ساعت به کنترل او بازگشت؛ موضوعی که موجب شد این قهرمان شطرنج حدس بزند که دلیل منع موقت فعالیت کانالش، به عبارت «سیاه دربرابر سفید» بازمیگردد؛ درحالی که او در آن زمان صرفا درباره شطرنج حرف میزده است.
Read More
This section contains relevant reference points, placed in (Inner related node field)
سیستم تعدیل یوتیوب هم بر الگوریتمهای انسانی و هم هوش مصنوعی متکی است. به این معنا که هر سیستم هوش مصنوعی اگر برای فهم بافت و محتوای متون به درستی آموزش ندیده باشد، ممکن است نظرات و دیدگاهها را به اشتباه متوجه شود.
آشیکار خدابخش (Ashiqur KhudaBukhsh)، متخصص پروژه در موسسه تکنولوژی زبان در دانشگاه کارنگی ملون، میگوید: «اگر آنها در تشخیص زبان نژادپرستانه به هوش مصنوعی متکی باشند، چنین رخدادهای تصادفی ممکن است اتفاق بیفتد.»
خدابخش بهمنظور بررسی بیش از ۶۸۰هزار دیدگاه گردآوریشده از پنج کانال محبوب یوتیوب با موضوع شطرنج، این نظریه را با استفاده از یک طبقهبندیکننده پیشرفته زبان، مورد آزمون قرار داد.
دانشمندان پس از بررسی دستی و مرور منتخبی از یکهزار دیدگاه که هوش مصنوعی آنها را بهعنوان سخنان نفرتپراکنانه طبقهبندی کرده بود، دریافتند که ۸۲ درصد از آنها بهدلیل استفاده از کلماتی نظیر «سیاه»، «سفید»، «حمله» و «تهدید» -که همه از اصطلاحهای رایج شطرنج است- به اشتباه طبقهبندی شدهاند.
این مقاله همین ماه در گردهمایی سالانه انجمن پیشرفتهای هوش مصنوعی ارائه شده است.
© The Independent